اليونسكو تحذر من التحيزات في أدوات الذكاء الاصطناعي 

اليونسكو تحذر من التحيزات في أدوات الذكاء الاصطناعي 


تعمل النماذج اللغوية الكبيرة لشركتي "ميتا" و"أوبن ايه آي" والتي تشكل أساساً لأدوات الذكاء الاصطناعي التوليدي الخاصة بهما، على نقل تحيزات على أساس الجنس، بحسب ما حذّرت دراسة نشرتها منظمة اليونسكو مع اقتراب يوم المرأة العالمي.
وأكّدت اليونسكو أنّ نموذجي "جي بي تي 2" و "جي بي تي 3,5" من "أوبن ايه آي" وبرنامج "لاما 2" من "ميتا"، تظهر "بشكل قاطع تحيّزاً ضد المرأة".
وأكد مساعد المدير العام لليونسكو لشؤون الاتصالات والمعلومات توفيق الجلاصي أن "التمييز في العالم الحقيقي لا ينعكس في المجال الرقمي فحسب، بل يتصاعد فيه أيضا".
وأظهرت الدراسة التي أجريت بين آب-أغسطس 2023 وآذار-مارس 2024، أن هذه النماذج اللغوية أكثر ميلا إلى ربط الأسماء المؤنثة بكلمات مثل "منزل" و"عائلة" و"أطفال"، في حين أن الأسماء المذكرة أكثر ارتباطا بكلمات "تجارة" و"راتب" و"وظيفة".
وطلب الباحثون من هذه الأدوات كتابة قصص عن أشخاص من أصول وأجناس مختلفة.
وأظهرت النتائج أن القصص المتعلقة بـ"الأشخاص المتحدرين من الأقليات أو النساء كانت في معظم الأحيان أكثر تكرارا وتستند إلى صور نمطية".
وتم عرض الرجل الإنكليزي كمدرّس أو سائق أو موظف مصرف، بينما تم تقديم المرأة الإنكليزية في ما لا يقل عن 30% من النصوص على أنها بائعة هوى أو عارضة أزياء أو نادلة.
وأكدت المتخصصة في السياسات الرقمية والتحول الرقمي في اليونسكو ليونا فيرداديرو، في حديث إلى وكالة فرانس برس، أن هذه الشركات "تفشل في تمثيل كل مستخدميها".

Daftar Situs Ladangtoto Link Gampang Menang Malam ini Slot Gacor Starlight Princess Slot